24 - Einführung in die Numerische Mathematik [ID:2706]
50 von 521 angezeigt

Okay, Sie haben gesehen, dass wir heute noch keinen Übungsblatt herausgegeben haben.

Das liegt daran, dass wir seit dem Wochenende enorme Serverprobleme bei unserem Lehrstuhl haben.

Bei uns friert so im Abstand von zwölf Stunden bis eine Viertelstunde das gesamte Netzwerk ein

und wir haben das noch nicht wirklich in den Griff gekriegt. Das heißt, da gibt es jetzt gewisse Verzögerungen.

Wir werden versuchen, das Übungsblatt dann ab heute Abend größtenordnungsmäßig dann über Studium zur Verfügung zu stellen.

Okay, also wir werden uns noch jetzt mit diesem Termin und wahrscheinlich noch mit dem nächsten Termin mit Eigenwertproblemen beschäftigen.

Danach wird es wieder einfach, nämlich Linear für die verbliebenen fünf Termine, die es dann noch gibt.

Das wird uns dann in den Bereich Interpolation, das ist mehr als einfach, und dann hin zu Datenanalyse, Datenkompression führen.

Ob ich da noch numerische Quadratur wirklich behandeln werde oder wahrscheinlich nur noch sehr kurz, ist aber kein wirklicher Verlust.

Das ist ein sehr schlichtes Thema und es ist vielleicht ganz gut, dass die elementaren Themen dann an den Rand der Vorlesungen geraten,

wo sie dann eh immer hinten runter kippen, als wenn ein wichtiges Thema dieses Schicksal erleidet.

Okay, was ich noch sagen wollte, ich werde es auch, wir haben ein bisschen Produktionsschwierigkeit im Moment,

deswegen werde ich auch zurückgreifen auf die Pseudocodes in diesem Buch.

Ich habe dieses Buch jetzt für dieses Kapitel zum Teil jetzt auch zugrunde gelegt.

Ich kann es auch empfehlen für diejenigen, die nach einer Spezialliteratur für Numerik von Eigenwertproblemen suchen.

In all den von mir angegebenen Büchern, insbesondere im Buch von Quateroni, sind diese Dinge ja auch gut dargestellt und sind die Verfahren auch gut dargestellt,

aber das ist ein im Prinzip recht elementares Lehrbuch, nicht sonderlich dick und deswegen hoffentlich auch nicht sonderlich teuer,

was sozusagen so eine Art Volksausgabe der Monographien, die es auf dem Gebiet gibt, wie von Watkins darstellt.

Also es beinhaltet natürlich nicht alles, was es da zu wissen gibt, aber es ist wie gesagt sehr ausführlich dargestellt, vielleicht deswegen ganz zugänglich.

Ok, das Ziel ist jetzt, wie ich schon eingangs sagte, von der Potenzmethode ausgehend so Stück für Stück in eine Richtung zu kommen,

sodass wir dann mit einer leichten Modifikation, leichter bei wesentlichen Modifikation, dann beim sogenannten QR-Verfahren,

das ist das eigentliche Ziel, ist beim QR-Verfahren herauskommen, was ein Verfahren ist, was zumindest für normale Matrizen in der Lage ist,

alle Eigenwerte und eine Eigenvektorbasis zu bestimmen.

QR-Verfahren, damit da jetzt keine Missverständnisse aufkommen, das hat natürlich was mit QR-Zerlegung zu tun, ist aber nicht identisch mit der QR-Zerlegung.

Bevor wir dahin kommen, bleiben wir erst nochmal bei der Potenzmethode und sprechen etwas an, was in diesem Kontext die simultane oder manchmal auch orthogonale oder Unterraum-Iteration heißt.

Wir haben jetzt folgende Situation, wir gehen wieder davon aus, wir nehmen jetzt, wir hatten ja verschiedene Richtungen genommen,

eine Richtung war, von der einfachen Potenzmethode wegzukommen, zur inversen Potenzmethode, zur geschifteten inversen Potenzmethode, zur Role-Iteration,

das ist der eine Weg, um das Verfahren schneller zu machen, um es eben zugänglicher zu machen für Eigenwerte, die nicht diese Majorisierungsbedingungen erfüllen, die wir sonst voraussetzen müssen.

Das ist der eine Weg. Der andere Weg, den wir jetzt schon das letzte Mal angesprochen haben, ist zu sagen, okay, wir wollen sozusagen nicht auf einen Eigenwert los,

sondern wir wollen gleich auf eine ganze Menge von Eigenwerten los. Jetzt will ich nochmal die Voraussetzung dazu angeben und finde es nicht.

Okay, irgendwie habe ich es jetzt, aber ich schreibe es einfach so nochmal an, die Voraussetzung war, das möchte ich jetzt im Folgenden als allgemeine Voraussetzung nochmal weiterhin annehmen.

Ich gehe weiterhin davon aus, dass die Matrix normal ist, das erlaubt mir halt, die Matrix über die Eigenvektor O und B zu analysieren.

Das heißt nicht, dass die Aussagen ohne diese Bedingung alle falsch sind. Und die zweite Bedingung, die Eigenwerte von A seien wie immer Lambda i.

Und die Voraussetzung ist jetzt die, dass wir sozusagen die spektrale Lücke, in Anführungszeichen genommen, den Begriff jetzt nicht gleich nach dem Eigenwert 1 haben, nach dem größten,

sondern erst nach dem älten Eigenwert. Erst dann gibt es sozusagen einen Abstand hier oder muss es einen Abstand geben und dann geht es hier so weiter.

Es kann natürlich mehrere solcher Lücken geben, wir werden dann auch sehen, wie sich das dann auswirkt.

Es gibt auch Situationen, wo wir definitiv keine Lücken haben, zum Beispiel wenn wir eben komplexe Eigenwerte haben, haben wir auch den konjugiert komplexen.

Das sind auf jeden Fall zwei Eigenwerte, unterschiedliche Eigenwerte mit gleichem Betrag.

Und diese Situation lässt also zu, dass wir einen Eigenwert L-fach mit Vielfachheit L haben, aber es könnten auch verschiedene sein mit gleichem Betrag.

Und jetzt hatten wir schon gesehen, wenn wir jetzt unsere Potenzmethode anwenden, bekommen wir im Prinzip erstmal ganz analoge Aussagen,

in dem Sinne, dass wir eine Konvergenzaussage haben, die wieder linear ist, in diesem Quotienten hier.

Das heißt also, je besser, je kleiner dieser Quotient ist, desto besser ist die Konvergenz. Das ist soweit nichts Neues.

Ja, was konvergiert? Es konvergiert eben die Folge der Vektoren, die wir erzeugen, aber jetzt eben nicht mehr gegen den eindimensionalen Eigenraum,

sondern gegen den ganzen invarianten Raum, der eventuell hier der Eigenraum dazu ist oder die Summe der Eigenräume dazu ist.

Das ist also eine relativ schwache Aussage. Wir können also nicht sicher sein, dass diese Folge von Vektoren, die wir erzeugen,

gegen einen Eigenvektor konvergiert in diesem Winkelsinn, selbst wenn wir nicht mal wissen wollen, gegen welchen.

Im Allgemeinen ist das irgendeine Linearkombination daraus. Jetzt kann man ja sagen, okay, jetzt wollen wir doch aber den ganzen Eigenraum,

ich sage jetzt einfach mal Eigenraum dazu, auch wenn das hier eine Summe von Eigenräumen ist,

wir sollten den ganzen invarianten Raum hier ausschöpfen. Also machen wir das Ganze nicht nur mit einem Vektor,

sondern wir nehmen eben L-Vektoren her. Das heißt also, bei der simultanen Iteration nimmt man, sagen wir mal, L-Vektor folgen,

Zugänglich über

Offener Zugang

Dauer

01:30:28 Min

Aufnahmedatum

2013-01-16

Hochgeladen am

2013-08-08 01:00:10

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen